第1571章
贝索斯的技术员编写的是一种纯自动化的爬虫脚本。
在互联网时代,一切讲究的是效率和速度,但是有时候,单纯的效率会催生出巨大的隐患。
任何网站的负载都是有限的,如果一个网站的登陆访问请求超过某个上限值,比如一秒钟几万次的登陆请求,那么整个网站都会宕机,数据量再加大的话,服务器甚至有可能烧。
而黑客最常用的攻击方式,就是写一个自动化的登陆脚本去不断的请求登陆。
为了防黑客,一些程序员大佬发明了一种验证人......
首页
书籍详情
写书评
章节下载
书架